Coursera Machine Learning Week3 逻辑回归 过拟合
Coursera Machine Learning Lunar’s note
分类问题 Classfication
Linear regression 不适用分类问题
Logistic Regression
- Model:Logistic function(Sigmoid function)
$h_\theta(x)=\frac{1}{1+e^{-\theta^Tx}}$ - Hypothesis Representation
$h_\theta(x)=P(Y=1|x;\theta)$ - Decision boundary决策边界
$\theta^Tx$ 就是决策边界,在边界的不同side做不同决策,比如说$\theta_0+\theta_1x_1+\theta_2x_2$在图像中就是一条直线,直线上方和下方是不同class
非线性决策边界 一次多项式不适用时可以使用高阶多项式 - 代价函数cost function 线性回归中的代价函数用在这里会变成非凸函数(non-convex)所以要使用不同的代价函数(极大似然估计 maximum likelihood estimation)
$Cost(h_\theta(x),y)=\{^{-log(h_\theta(x))(y=1) }_{-log(1-h_\theta(x))(y=0) }$ - 简化版本 $Cost(h_\theta(x),y)=-ylog(h_\theta(x))-(1-y)log(1-h_\theta(x))$
$y=0 or 1$ - $J(\theta)=\frac{1}{m}\sum^m_{i=1}Cost(h_\theta(x^{(i)}),y^{(i)})$
- 拟合参数 fit parameters 梯度下降 Gradient Descent 方法和线性回归一样
高级优化 Advanced Optimization
- Conjugate gradient
- BFGS
L-BFGS
advantages:- 不需要选择学习速率
- 比梯度下降更快
disadvantages:
- 更复杂
这里还有提到许多通用的梯度下降算法的变种和优化。多元分类 Multiclass calssification
One-vs-all
分成n次二元分类问题,选取$max(h_\theta^{(i)}(x))$
过度拟合问题 Overfitting
欠拟合(underfit 或 High bias)
预测偏差较大
过拟合(overfitting)
(或 High variance) 对于训练集拟合得很好,但是对new example表现不佳。
解决过度拟合
- 减少特征变量
- 正则化(Regularization)
正则化
减小某些特征值的参数值$(\theta^i)$,通常我们能获得一个更“简单”的假设(“Simpler”hypothesis),更不易于过度拟合。
- How
使用新的cost function
$J(\theta)=\frac{1}{2m}[\sum^m_{i=1}(h_\theta(x^{(i)})-y^{(i)})^2+\lambda\sum^n_{j=1}\theta^2_j]$
那么最小化$J(\theta)$的过程中(使用梯度下降或者正规方程都可以),$\theta_j$也会逐渐变小。但是过大的$\lambda$比如$10^9$会导致欠拟合。 - Logistic regression中的正则化,注意cost function中最后一项
$J(\theta)=-[\frac{1}{m}\sum^m_{i=1}-ylog(h_\theta(x))+(1-y)log(1-h_\theta(x))]+\frac{\lambda}{2m}\sum^n_{j=1}\theta^2_j$
- Logistic regression中的正则化,注意cost function中最后一项
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 陆陆自习室!
评论